Il garante Privacy: “Attenzione ad IA come oracolo. Pericolo minori, serve alleanza tra istituzioni”

Corriamo ciechi verso le promesse dell’intelligenza artificiale. Dove i grandi vantaggi hanno come contraltare straordinari pericoli per il nostro vivere. La privacy, tutela dei dati – materia prima di questa rivoluzione – è un baluardo per riequilibrare lo strapotere delle big tech e, in generale, di tutti coloro che sfruttano la trasformazione digitale a proprio vantaggio. Ma non basta: Pasquale Stanzione, presidente del Garante privacy, nel discorso per la relazione annuale 2025 del 15 luglio dove ha esposto questi concetti, richiama alla necessità di una collaborazione profonda della società, qui compresi i genitori, per tutelare quello che chiama “il lato umano” della rivoluzione digitale. Ossia: noi.
Il 2024 – di cui la relazione fa un bilancio, ma guardando al 2025 e al futuro – è stato un altro anno faticoso, di inseguimento del Garante italiano (in collaborazione con i suoi analoghi europei) rispetto alle tante sfide che arrivano dal digitale. Si pensi ad esempio all’ancora irrisolto problema del telemarketing illecito. Le sanzioni di per sé sono una briciola rispetto ai problemi affrontati. Il garante nel 2024 ha riscosso 24 milioni di euro in sanzioni. Adottati 835 provvedimenti collegiali, di cui 468 sono provvedimenti correttivi e sanzionatori. L’Autorità ha fornito riscontro a 4.090 reclami e 93.877 segnalazioni riguardanti, tra l’altro il marketing e le reti telematiche; i dati on line delle pubbliche amministrazioni; la sanità; la giustizia, il cyberbullismo e il revenge porn, la sicurezza informatica; il settore bancario e finanziario; il lavoro.
Eccesso di fiducia nell’IALe questioni più complesse riguardano l’intelligenza artificiale, a cui è dedicato il discorso del presidente.
“Oggi chiunque di noi ha la possibilità di avvalersi dell’IA. per qualunque ricerca, pur con il rischio dell’effetto-ancora, ovvero della tendenza ad affidarvisi senza alcun senso critico né volontà di approfondimento, con un approccio quasi oracolare”, ha detto Stanzione. “Ricerche recenti dimostrano come il 66% dei dipendenti che utilizzano l’IA generativa per ragioni professionali si affidino al risultato da essa proposto senza valutarne l’accuratezza”.
Non solo lavoro, vita personale e temi sanitari finiscono nell’oracolo. L’IA “si insinua nella tattica bellica, alimentando la guerra algoritmica nel dominio cognitivo, con manipolazione di contenuti, deterrenza digitale e narrazioni polarizzanti”. “Si stanno sviluppando caschi integrati con realtà aumentata e i.a. per potenziare le capacità sensoriali dei soldati”. “In Ucraina il sistema Delta fornisce analisi strategiche predittive utili a orientare l’azione difensiva, mentre in Israele Red Alert elabora modelli predittivi per anticipare i tempi di evacuazione, a tutela dei civili”.
L’IA non ha ancora sostituito l’uomo, ma “ne orienta le decisioni persino su di un terreno così drammaticamente umano come quello bellico, fatto di carne e sangue, che nessun algoritmo può cancellare”. Il Garante elenca i numerosi benefici che vengono dall’AI, ad esempio in ambito sanitario, terapeutico. Tuttavia, gli incomparabili benefici che, potenzialmente, l’IA può offrire possono risolversi in pericoli intollerabili in assenza della necessaria consapevolezza che ne esige l’uso”.
I pericoli non vanno visti come l’altra faccia della medaglia rispetto a questi vantaggi. I due lati sono in realtà uno solo, strettamente collegati e sempre presenti assieme. La tutela di diritti e persone quindi è una questione di orientamento dell’intelligenza artificiale nella sua interezza, perché il suo potere sia ben distribuito e vada a vantaggio della collettività.
Il tema emerge con più chiarezza nei confronti dei soggetti più vulnerabili. “Questo vale soprattutto per i minori che, come “nativi digitali”, intessono con le neotecnologie un rapporto quasi osmotico, con indubbi benefici (si pensi soltanto allo sconfinato patrimonio d’informazioni dischiuso da un solo click) ma anche, talora, rischi notevoli”, dice Stanzione.
Gli algoritmi sono spesso utilizzati per produrre deepfake, generalmente in danno di donne o minoranze; di coloro i quali sono ritenuti, per natura, rappresentazione o circostanza, più fragili.
Si moltiplicano tra l’altro i casi di pedopornografia generata con l’intelligenza artificiale, rendendo molto complesso il lavoro delle autorità. “In due soli anni sono, infatti, cresciuti del 380% i casi di uso d’i.a. per creare materiale pedopornografico, talora a partire da immagini reali cedute dietro ricatto dagli stessi minori, con un’esposizione di adolescenti cresciuta del 35% per i ragazzi e del 67% per le ragazze nello stesso arco temporale”.
“Il Garante è intervenuto, nel corso dell’anno, rispetto a istanze di tutela inerenti la temuta diffusione di immagini artefatte mediante i.a., espressiva di una forma di prevaricazione ulteriore rispetto al sextortion e al revenge porn, che ha impegnato l’Autorità in 823 procedimenti nel 2024”, spiega Stanzione.
I minori manipolatiSempre più anche i casi di minori o altri soggetti vulnerabili che sono manipolati dai chatbot, fino a essere spinti a gesti estremi. “Per molti adolescenti i chatbot sono, del resto, divenuti ormai delle vere e proprie figure di riferimento (Replika si autodefinisce “l’amico empatico”)”. “Addirittura alcuni sviluppano una sorta di legame affettivo, empatico con questi chatbot anche in ragione del loro tono spesso eccessivamente lusinghiero, assolutorio, consolatorio e del loro configurarsi come un approdo sicuro in cui rifugiarsi, al riparo dal giudizio altrui”. “E’ quello che viene definito il loop dell’empatia infinita, che genera appunto dipendenza spingendo a svalutare, per converso, i rapporti umani (che appaiono troppo complessi e poco satisfattivi), inducendo così all’isolamento. Sono agli atti delle indagini per la tragica scomparsa di una giovanissima ragazza le domande da lei rivolte a ChatGpt sulla “tossicità” dell'amore e sulla relazione sentimentale”, dice il Garante.
Il lavoro è uno degli ambiti in cui il vantaggio del digitale si accompagna pari passo con i rischi. Soprattutto per quanto riguarda la spinta alla produttività dei lavoratori.
Attenzione a caporalato digitale“La digitalizzazione del lavoro impone, del resto, alcune essenziali cautele per impedire che le garanzie faticosamente conquistate sul terreno giuslavoristico per riequilibrare la posizione di vulnerabilità del dipendente, siano eluse da mere scorciatoie tecnologiche”. “La protezione dei dati svolge un ruolo centrale nel coniugare esigenze datoriali e libertà del lavoratore, anche alla luce delle innovazioni indotte dalla gig economy, che non può degenerare in una forma di caporalato digitale”.
“Particolarmente significativo, in tal senso, il provvedimento adottato nei confronti di una società di food delivery che organizzava il lavoro mediante piattaforma, in assenza delle necessarie garanzie per i lavoratori”, dice Stanzione. Secondo il Garante, la protezione dei dati è baluardo di diritti nella rivoluzione digitale, “tutelando la componente più profondamente “umana” dell’innovazione”. “L’assenza di regolazione – aggiunge ancora il Garante – non produce eguaglianza ma subalternità agli imperativi del mercato”.
Il rischio di un “effetto distorsivo, anzitutto in termini democratici, che la regolazione europea del digitale, pur tra inevitabili ombre e luci, mira a contrastare, ridisegnando il perimetro dei poteri privati e ponendo la tecnica al servizio della persona”.
"Serve pedagogia digitale”Ma come fare? Il Garante evidenzia la necessità di farlo tutti assieme, le varie autorità preposte a livello europeo (garanti, forze dell’ordine in primis) e società civile. Si pensi ad esempio quello che dice sui minori: “è importante che l’accesso a tali dispositivi e, più in generale, alla rete, non avvenga in solitudine”; è necessaria quella che chiama una “pedagogia digitale”. Necessaria “una comune alleanza delle istituzioni e delle comunità educanti per la promozione della consapevolezza digitale dei minori. La scuola, le scuole, stanno facendo molto; il Garante è al loro fianco in quest’ attività di formazione della cittadinanza digitale”.
"Serve cultura della protezione dei dati”La consapevolezza digitale è però una necessità di tutti – soprattutto di chi opera in sanità, dove il dato è molto sensibile, nota il Garante. “Sempre più necessaria l’introiezione, da parte del personale del settore pubblico e di quello privato, di una complessiva cultura della protezione dei dati”, dice. “Ciascuno deve essere consapevole della rilevanza della propria azione per la garanzia della sicurezza della “frontiera digitale” del Paese: fa parte di quella cultura del digitale senza la quale nessuna strategia di tutela è possibile”. “Questa consapevolezza è il presupposto ineludibile per riforme che siano non soltanto e mera innovazione tecnica, ma che sanciscano invece un reale progresso in termini di libertà e di garanzie democratiche”, conclude il Garante.
La Repubblica